De Informationstheorie is a mathematische Theorie ausm Bereich vo da Woahscheinlichkeitstheorie und Statistik, wo afn Claude Shannon zruckgähd.
Se befossd se mid Begriffn wia: Information, Entropie, Informationsiwatrogung, Datnkompression, Kodiarung und vawondde Themen.
Nem da Mathematik, Informatik und Nochrichtntechnik wead de theoretische Betrochtung vo Kommunikation duach de Informationstheorie aa za Bschreibung vo Kommunikationssystemen in vuin ondan Bereichen eihgsetzd.
De Shannonsche Theorie vawendd'n Begriff vo da Entropie, um de Informationsdichtn (Informationsghoid) vo Nochrichtn z' charakterisian. Je gleichfeamiga a Nochricht afbaud is, desto häha is iah Entropie. Grundlengd fia de Informationstheorie is nem an Entropiebegriff as Shannon-Hartley-Gsetz, noch Claude Elwood Shannon und Ralph Hartley, wo de theoretische Obagrenz vo da Kanoikapazitet, des is de maximoie Datniwatrogungsratn ohne Iwatrogungsfehla, vo om Iwatrogungskanoi in Obhängigkeit vo Bandbroadn und Signoi-Rausch-Vahejtnis bschreibd.